Новости Статьи Российское ПО VMware Veeam StarWind vStack Microsoft Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6470 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs

VMware Fault Tolerance и Isolation Responce для VMware HA.


Как вы знаете, в механизме высокой доступности VMware High Availability (HA) есть такая настройка как Isolation Responce, которая определяет, какое событие следует выполнить хосту VMware ESX / ESXi в случае наступления события изоляции для него в кластере (когда он не получает сигналов доступности - Heartbeats - от других хост-серверов).

  • Leave powered on
  • Power off
  • Shutdown

Сделано это для того, чтобы вы могли выбрать наиболее вероятное событие в вашей инфраструктуре:

  • Если наиболее вероятно что хост ESX отвалится от общей сети, но сохранит коммуникацию с системой хранения, то лучше выставить Power off или Shutdown, чтобы он мог погасить виртуальную машину, а остальные хосты перезапустили бы его машину с общего хранилища после очистки локов на томе VMFS или NFS (вот кстати, что происходит при отваливании хранища).
  • Если вы думаете, что наиболее вероятно, что выйдет из строя сеть сигналов доступности (например, в ней нет избыточности), а сеть виртуальных машин будет функционировать правильно (там несколько адаптеров) - ставьте Leave powered on.

Но есть еще один момент. Как вам известно, VMware HA тесно интегрирована с технологией VMware Fault Tolerance (непрерывная доступность ВМ, даже в случае выхода физического сервера из строя). Суть интеграции такова - если хост с основной виртуальной машиной выходит из строя, то резервный хост выводит работающую резервную ВМ на себе "из тени" (она становится основной), а VMware HA презапускает копию этой машины на одном из оставшихся хостов, которая становится резервной.

Так вот настройка Isolation Responce не применяется к машинам, защищенным с помощью Fault Tolearance. То есть, если хост VMware ESX с такой машиной становится изолированным, при настройке Power off или Shutdown он такую машину не гасит, а всегда оставляет включенной.

Рекомендация - иметь network redundancy для сети heartbeats. Не должен хост себя чувствовать изолированным, если он весь не сломался.


Таги: VMware, HA, Fault Tolerance, FT, Network, VMachines, Blogs, ESX, ESXi

Использование ghettoVCB для резервного копирования виртуальных машин VMware ESX / ESXi.


Копировать руками машину каждый раз, когда нужно внедрить какое-то оборудование, или просто для сохранения данных, это безумно неудобно. Вот для этого и была придумана технология автоматизированного бэкапа, написанная энтузиастами на скриптах perl: ghettoVCB.


Таги: VMware, ESX, Backup, VCB, ESXi, Бесплатно, vSphere, VMachines, Blogs, Storage

Организационные изменения в VMware Россия и СНГ.


Уважаемые коллеги, хочу Вам сообщить, что в организационной структуре VMware Россия и страны СНГ произошли значительные изменения. Во-первых, некоторое время назад пост руководителя группы системных инженеров покинул Дмитрий Тихович (который, помимо всего прочего, поддерживал также официальный блог VMware Russia - http://www.vmware-blog.ru/). Теперь Дима работает в компании Citrix (см. его профиль в LinkedIn) в качестве PAM'а (Partner Account Manager).

Кроме того, вчера стало известно, что пост директора VMware Russia/CIS покинул Антон Антич, работавший в VMware более четырех лет (там же он был директором по партнерам и первым человеком, который пришел в российское представительство VMware). Очевидно, что данные перестановки связаны с коренными изменениями в самой компании VMware на уровне высшего руководства (например).

Что Дмитрий, что Антон - очень приятные и умные люди, с которыми было приятно работать по бизнесу VMware, и которые, наверняка, не оставят отрасль виртуализации в своей дальнейшей деятельности. Желаю вам успеха, коллеги!

Update. Из российского представительства также ушел Виталий Суховский, соратник Антона, отвечавший за продажи VMware в России и СНГ.


Таги: VMware, Enterprise, Blogs, vSphere

Два документа о технологии VMware Storage IO Control (SIOC) в vSphere.


Как мы уже писали, в VMware vSphere 4.1 появилась технолония Storage IO Control (SIOC, подробности здесь), которая позволяет настраивать приоритеты доступа виртуальных машин к хранилищам не в рамках одного хоста VMware ESX / ESXi, а в рамках всего кластера.

Первый документ "Storage I/O Control Technical Overview and Considerations for Deployment" рассказывает нам о том, как именно работает данная технология:

как ее нужно настраивать:

и какие рекомендации по настройкам Latency можно использовать при борьбе виртуальных машин за ресурсы ввода-вывода, в зависимости от типов хранилищ:

Второй документ называется "Managing Performance Variance of Applications Using Storage I/O Control". Он содержит результаты тестирования SIOC в условиях, когда нужно выделить виртуальную машину как критичную с точки зрения ввода-вывода (отмечена звездочкой). Взяли требовательную к нагрузкам задачу (DVD Store).

Измерили эталонную производительность когда работает только критичная ВМ (левый столбик - принят за единицу, SIOC Off), измерили среднуюю производительность (когда все машины работают параллельно и у каждой Shares установлено в 1000, SIOC Off), а потом стали варьировать Shares для критичной виртуальной машины (при включении SIOC On) смотря на то, как растет ее производительность в рамках кластера:

Видим, что SIOC при распределении приоритета ввода-вывода между хостами работает. В этом же документе есть еще тесты, посмотрите.

Напоминаю, что технология VMware Storage IO Control есть только в издании VMware vSphere Enterprise Plus.


Таги: VMware, Storage, SIOC, vSphere, ESX, ESXi, Whitepaper, Blogs, Performance

Блоки томов VMFS и поведение виртуальных машин VMware vSphere при Storage vMotion.


Как вы знаете, для виртуальных хранилищ (datastores) в VMware vSphere есть возможность задавать разные размеры блоков тома VMFS. Также вы, вероятно, знаете, что операция Storage vMotion позволяет перемещать виртуальную машину между хранилищами, превращая ее виртуальный диск из толстого (thick) в тонкий (thin).

Но чтобы это результирующий тонкий диск после Storage vMotion занимал на целевом хранилище только столько пространства, сколько используется внутри гостевой ОС (а не весь заданный при создании), нужно предварительно почистить блоки с помощью, например, утилиты sdelete.

Duncan Epping, известный технический эксперт VMware, обратил внимание на проблему, когда пользователь делает очистку блоков, затем Storage vMotion, а уменьшения диска не происходит. Почему так?

Очень просто, в составе VMware ESX / ESXi есть три типа datamover'ов ("перемещателей"):

  • fsdm – это старый datamover, который представляет собой базовую версию компонента. Он работает сквозь все уровни, обозначенные на картинке. Зато он, как всегда, универсален.
  • fs3dm – этот datamover появился в vSphere 4.0 и имеет множество оптимизаций. И вот тут данные уже не идут через стек работы с виртуальной машиной. То есть он работает быстрее.
  • fs3dm – hardware offload – Этот компонент появился для поддержки технологии VAAI, которая позволяет вынести операции по работе с хранилищами виртуальных машин на сторону массива (hardware offload). Он, естественно, самый быстрый и не создает нагрузку на хост VMware ESX / ESXi.

Так вот основная мысль такова. Когда вы делаете миграцию Storage vMotion виртуальной машины между хранилищами с разными размерами блоков используется старый datamover fsdm, а когда с одинаковыми, то новый fs3dm (в программном или аппаратном варианте). Последний работает быстрее, но не умеет вычищать нулевые блоки на целевом хранилище у виртуального диска VMDK.

А вот старый fsdm, ввиду своей универсальности, это делать умеет. То есть, если нужно вычистить нулевые блоки не перемещайте ВМ между хранилищами с одинаковыми размерами блоков. Так-то вот.


Таги: VMware, vSphere, Storage, SVMotion, Storage VMotion, ESX, ESXi, Blogs, Thin, VMDK

VMware vSphere 5.0 - новые возможности и сроки выхода.


Компания VMware на прошедшей конференции VMware Partner Exchange 2011 (PEX) объяивла о некоторых подробностях касательно следующей версии платформы виртуализации VMware vSphere 5.0.

Сначала новые возможности vSphere 5.0:

  • Dynamic Resource Scheduling (DRS) for Storage - эта давно ожидаемая функция платформы виртуализации, которая позволит автоматически выравнивать нагрузку на системы хранения путем динамического перемещения работающих виртуальных машин между хранилищами (сейчас это можно сделать вручную за счет Storage VMotion). Пользователи смогут определять группы Datastor'ов (они зовутся Storage Pods), которые будут использоваться для балансировки по хранилищам на базе их заполненности. Предполагается, что это повысит автоматизацию датацентров. О балансировке нагрузки по производительности хранилищ пока ничего не говорится.
  • Host-based replication for Site Recovery Manager - возможность репликации виртуальных машин на уровне хостов а не SAN-хранилищ (как делается сейчас). То есть, поддержка технологии репликации со стороны СХД будет не нужна, репликация будет работать в асинхронном режиме со стороны хост-серверов. По-сути, это аналог репликации виртуальных машин в продукте Veeam Backup and Replication 5, которая сейчас активно используется в производственной среде многими компаниями для защиты данных виртуальных машин и наиболее быстрого восстановления работоспособности сервисов (показатели RTO).
  • Network I/O control for Virtual Machines - эта возможность будет позволять резервировать часть канала для приоритетных задач в кластере HA/DRS на случай его перегрузки. Актуально это будет для сетей 10G, где канал шире, а вот физических адаптеров значительно меньше.

Выход VMware vSphere 5.0 запланирован на второе полугодие 2011 года. Но скорее всего пятая версия платформы выйдет до VMworld 2011, который начнется 29 августа.

Также на партнерской сессии были озвучены несколько вещей на будущее (2012 год, после vSphere 5) - фреймворк SLA, который будет позволять пользователям внутренних облаков на базе VMware vSphere определять показатели качества обслуживания для своих приложений ("policy engine"). Также обсуждалась доступность в 2012 году стандартной функциональности long-distance vMotion, которая будет позволять перемещать работающие виртуальные машины на большие расстояния (вместе с Cisco VMware делала эксперименты по перемещению на сотни миль). Сейчас Long Distance vMotion уже поддерживается для некоторых сценариев.

Это позволит воплотить в жизнь концепции Follow the Sun и Follow the Moon для больших корпораций.

P.S. Ну и не забываем о неофициальном списке новых возможностей VMware vSphere 5.0:

  • Обновление железа виртуальной машины до версии 8
  • Поддержка каждой виртуальной машиной до 32 vCPU
  • Поддержка каждой виртуальной машиной до 1 TB ОЗУ
  • Поддержка USB 3.0
  • Поддержка подключения USB из клиента
  • Поддержка Mac OS Server
  • VCenter на Linux в виде VA

И да, в vSphere 5.0 будет уже только ESXi без аналога ESX.


Таги: VMware, vSphere, Update, ESX, ESXi, vCenter, Blogs

Как VMware View 4.5 перераспределяет десктопы при операции Rebalance по хранилищам.


Если вы используете пулы типа Linked Clone (на основе базового образа) в решении для виртуализации ПК VMware View 4.5, то знаете, что есть такая операция "Rebalance", которая перераспределяет виртуальные ПК пула по хранилищам VMFS / NFS. Но многие удивятся, как работает эта функция. Например, у вас есть несколько хранилищ различной емкости, и вы делаете Rebalance десктопов.

Получаете вот такую картину:

Слева - то, что вы ожидаете увидеть в результате балансировки, а справа - то, что получается на самом деле. В чем причина?

Все дело в том, что VMware View 4.5 использует для перемещения машин на хранилище параметр "weighted available space". У какого из хранилищ он больше - туда виртуальные машины и переезжают. Что это за параметр:

weighted_available_space = datastore_capacity * overcommit_factor – virtual_usage

Здесь:

datastore_capacity - это общая емкость хранилища VMFS / NFS.

virtual_usage - это максимально возможный объем, занимаемый виртуальными машинами на хранилище, который формируется из размера виртуальных дисков машин (номинального, а не реального) + размер памяти (для Suspend).

overcommit_factor - это настройка для Storage Overcommit, которую вы задавали для Datastore, когда выбирали, какие из них следует использовать для пулов Linked Clone. Там были такие значения:

  • None - хранилище не является overcommitted.
  • Default - это коэффициент 4 от размера хранилища
  • Moderate - это коэффициент 7 от размера хранилища
  • Aggressive - это коэффициент 15 от размера хранилища.
Если вы забыли, где это выставляли, то это вот тут:

Теперь переходим к примеру и формуле. Есть у нас вот такая картинка (см. настройки overcommitment):

Счтиаем weighted available space:

  • DS1 - 1000GB (Datastore Size) * 4 (Conservative Overcommitment) – 0 (No VM's deployed) = 4000
  • DS2 - 1000GB (Datastore Size) * 4 (Conservative Overcommitment) – ((20GB + 130MB)x5) (5 VM's already deployed) = 3865
  • DS3 - 1000GB (Datastore Size) * 7 (Moderate Overcommitment) – ((20GB + 130MB)x5) (5 VM's already deployed) = 6865

Теперь вот вам задачка - что будет в результате Rebalance виртуальных ПК?

По-сути, правило таково: если у вас все хранилища с одинаковым уровнем Storage Overcommitment и одинакового размера, то виртуальные машины будут перемещены на другие хранилища, если там больше свободного места, чем свободного места на текущем хранилище. Ну а если разного размера и одинакового уровня Overcommitment - то ожидайте того, что машины останутся на больших хранилищах. Так-то вот.

И да, никогда не далейте Storage VMotion для виртуальных машин VMware View 4.5 вручную - это не поддерживается со стороны VMware.

Материал написан по мотивам заметки "VMware View 4.5: Rebalance" от Simon Long.


Таги: VMware, View, Rebalance, VDI, Blogs, Enterprise, Storage VMotion, Storage, VMFS, NFS

Калькулятор необходимой ширины канала для VMware View: PCoIP и RDP.


Замечательный сайт myvirtualcloud.net опубликовал интересный калькулятор, который расчитывает необходимую ширину канала для пользователей виртуальных ПК VMware View 4.5, использующих свои десктопы по протоколам Microsoft RDP и Teradici/VMware PCoIP. Особенно это актуально для WAN-соединений при работе удаленных пользователей из дома, филиалов, командировок и т.п.

В качестве исходных данных рассматриваются 4 профиля нагрузки - офисные приложения без мультимедиа (тяжелые и легкие нагрузки), а также требовательные мультимедиа-приложения (также легкие и тяжелые). Расчеты основаны на рекомендациях VMware и Teradici и включают в себя необходимые требования ко всем типам трафика: картинка экрана, перенаправление USB, аудиотрафик и данные. Исходные требования таковы:

Ну а вот и сам калькулятор (приятно, что много разных параметров). Тыкаем на картинку:

Что еще рекомендую почитать:


Таги: VMware, View, Calculator, PCoIP, RDP, Microsoft, WAN, vNetwork, Blogs, Enterprise

5 новых способов использовать продукт Veeam Backup and Replication 5.


Как мы уже анонсировали, 20 января состоялся вебинар "5 New ways to use SureBackup", запись которого теперь доступна для просмотра:

Также есть и версия со слайдами в PDF.

Какими же новыми способами нам предлагают использовать технологию SureBackup в продукте Veeam Backup and Replication 5.0 для резервного копирования виртуальных машин и репликации:

1. Тестирование безопасности виртуальных машин.

Запускаем виртуальную машину прямо из резервной копии в рамках тестовой лаборатории и делаем penetration test:

Преимущество - на надо насиловать работающую продуктивную систему.

2. Служебные операции с производственными базами данных.

Зачастую, с базой данных нужно произвести некоторые операции, которые не затрагивают операции записи в базу. Их не обязательно делать на продуктивной системе, поскольку это снижает производительность работающей информационной системы. Можно использовать мгновенно запускаемую резервную копию для изменения модели данных или проводить анализ данных (data mining).

3. Тестирование изменений в скриптах PowerCLI.

Например, правила написания скриптов PowerCLI 4.1 заметно отличаются от PowerCLI 4.0, что требует переработки скриптов и их тестирование. А ведь тестировать на продуктивной системе - это моветон. Поэтому делать это можно в изолированной тестовой лаборатории Veeam Backup and Replication 5.

4. Тестирование больших объектов GPO.

В больших организациях системные администраторы часто занимаются разработкой и тестированием новых политик GPO, которые еще неизвестно как лягут на продуктивные системы. Veeam Backup and Replication и его тестовые лаборатории помогут вас в этом и позволят не затронуть продуктивные системы.

5. Тестирование многомашинных приложений.

Это, по-сути, классика Lab Management'а. С помощью виртуальных изолированных лабораторий вы сможете проверять патчи, апгрейды и любые другие изменения в составе многомашинного приложения в независимой от продуктива тестовой среде.

Как видно, это всего лишь некоторые типовые сценарии применения технологии SureBackup в Veeam Backup and Replication 5.0. Всего возможностей, которые он открывает - очень много. Так что, вперед - тестируйте, покупайте, тем более, что продукт пока продается по старым ценам (смешным для средств резервного копирования).


Таги: Veeam, Backup, Webinar, Enterprise, Whitepaper, VMware, vSphere, ESX, Blogs, Lab Manager

RVTools 3.0 - настройка и отчетность о параметрах инфраструктуры VMware vSphere.


Мы уже писали об интересной бесплатной утилите RVTools для управления серверами виртуализации VMware vSphere и виртуальными машинами. На днях вышла версия RVTools 3.0, в которой появилось множество нововведений и улучшений.

Естественно, RVTools 3.0 поддерживает VMware ESX 4.1 / vCenter 4.1, а также приобрела несколько новых функций:

  • Новая вкладка с информацией о сервисной консоли и параметрах VMKernel.
  • Pass-through аутентификация. Можно логиниться на серверы под текущим Windows-аккаунтом.
  • Числовые колонки корректно отформатированы, значения для размеров снапшотов отображаются в мегабайтах
  • Поддержка vSphere Web Services SDK 4.1, которые поддерживают новые возможности ESX 4.1
  • Экспорт в csv теперь учитывает региональные настройки (точки там, запятые)
  • Можно делать импорт в xls без установленного Excel
  • Каждая таба при импорте в xls попадает на отдельный лист
  • Новые параметры командной строки

Скачать RVTools 3.0 можно по этой ссылке. Документация здесь.


Таги: VMware, vSphere, RVTools, Update, ESX, VMachines, Blogs, Tools, Бесплатно

Паттерны облачной инфраструктуры


Сейчас модно говорить про облачные вычисления и облака. За счет виртуализации эти разговоры становятся реальностью во многих компаниях (частные облака) и у сервис-провайдеров (публичные облака). Есть такой ресурс doublecloud.org, где Steve Jin выкладывает паттерны построения облаков. Эти паттерны он формализует по определенным правилам и рассматривает проблемы и решения, которые возникают в процессе размышлений над различными аспектами облачной инфраструктуры.
Таги: Cloud, Cloud Computing, Enterprise, VMware, VMachines, Blogs,

Январские новости от Veeam Software.


Компания Veeam даже в январе шевелится, в отличие от остальных тех, кто еще спит. Итак, новостей две. Во-первых, вышла вторая глава книги "The Expert Guide to VMware Data Protection and Disaster Recovery" от Eric Siebert. Глава называется "Backup and Recovery Methodologies":

Во-вторых, 20 января состоится вебинар "5 New ways to use SureBackup". Проводит его небезызвестный Rick Vanover, умеющий показать, что и как работает в деталях. Ну а для тех, кто хочет послушать о Veeam Backup and Replication 5 на русском - просим на вебинар "Познакомьтесь с Veeam Backup & Replication v5 и революционной технологией vPower", где Владимир Ескин расскажет вам о новой технологии SureBackup. И вообще, все вебинары Veeam на русском языке вы найдете здесь.


Таги: Veeam, Backup, Webinar, Storage, VMware, vSphere, Whitepaper, Blogs

Резервное копирование виртуальных машин VMware vSphere с включенной Fault Tolerance.


Часто задаваемый вопрос: можно ли осуществлять резервное копирование виртуальных машин на ESX, работающих в кластере постоянной доступности VMware Fault Tolerance. Ответ прост - согласно ограничениям технологии FT, бэкап таких работающих виртуальных машин делать нельзя, поскольку для них нельзя сделать мгновенный снимок (снапшот).

А ведь, зачастую, пользователям нужна не только высокая доступность сервиса в виртуальной машине на случай аварии или других неприятностей, но и резервное копирование на случай утери критичных данных. Кстати говоря, VMware обещала сделать поддержку одного снапшота для FT-машин в целях резервного копирования, но так и не сделала этого в версии VMware vSphere 4.1. А делать бэкап надо - поэтому придется все делать самим.

Очевидных пути выхода из положения два:

1. Делать резервное копирование данных виртуальной машины средствами гостевой ОС (копирование на уровне файлов) либо средствами SAN (снапшоты).

2. На период бэкапа (например, средствами Veeam Backup) выключать защиту Fault Tolerance для виртуальной машины вручную или с помощью скрипта по расписанию. Этот способ подходит не всем, поскольку на время резервного копирования машина оказывается незащищенной.

О первом способе вы и так знаете, поэтому поговорим о втором:

Для автоматизации этого процесса с помощью интерфейса vSphere CLI добрые люди написали соответствующий скрипт, который можно использовать, например, на сервере резервного копирования Veeam Backup and Replication 5. Сначала нужно скачать и установить VMware vSphere CLI:

Затем минут за 10-15 до запуска задачи резервного копирования отключаем Fault Tolerance для машины командой (ее можно добавить в bat-файл и запускать планировщиком):

ftCLI2.pl --server vcenter.domain.local --passthroughauth --operation stop --vmname MyTestFTvm

Затем запускаем задачу резервного копирования Veeam Backup, в настройках которой есть замечательный параметр для выполнения скрипта после завершения задачи:

А вот в этом батнике мы уже снова включаем Fault Tolerance командой вроде этой:

ftCLI2.pl --server vcenter.domain.local --passthroughauth --operation create --vmname MyTestFTvm

Понятное дело, что данный способ является костылем, и скорее всего данная особенность будет исправлена в следующей версии vSphere, но пока приходится делать вот так.


Таги: VMware, FT, Backup, Fault Tolerance, vSphere, ESX, Blogs, HA

Оптимизация протокола PCoIP в VMware View 4.5.


Хорошая статья "Optimising PCoIP Display & Imaging" появилась на сайте myvirtualcloud.net. Ее основная суть - как с помощью групповых политик можно управлять различными параметрами PCoIP в целях оптимизации производительности виртуальных ПК VMware View 4.5. Особенно актуальны эти настройки для WAN-соединений, где PCoIP в сравнении с тем же Citrix HDX/ICA показывает не самые лучшие результаты.

Вот каких параметров можно добавить в реестр виртуальной машины VMware View (тип REG_DWORD) и через групповые политики:

PColPMaxLinkRate GPO (pcoip.max_link_rate)

Это значение максимальной ширины канала для сессии PCoIP в килобитах в секунду. По умолчанию это значение в 1 Gbps. Значение 0 - отменяет ограничения по ширине канала.

PColPlmagingMinimumlmageQuality GPO (pcoip.minimum_image_quality)

Задается в диапазоне от 30 до 100. По умолчанию - 50. В условиях ограниченного по ширине канала этот параметр позволяет выбрать между:

  • Высокой частотой кадров, но низким качеством картинки (меньшее значение параметра)
  • Высоким качеством картинки, но и меньшей частотой смены кадров (большее значение параметра)

PColPlmagingMaximumlnitiallmageQualitv GPO (pcoip.maximum_initial_image_quality)

Задается в диапазоне от 30 до 100. По умолчанию - 90. В условиях ограниченного по ширине канала этот параметр позволяет выбрать между:

  • Высоким качеством начальной картинки, при этом будут большие всплески в использовании канала при большом изменении содержимого экрана
  • Низким качеством картинки, но и всплески будут не такими ощутимыми

PCoIP.maximum_frame_rate (только параметр pcoip.maximum_frame_rate)

По умолчанию установлено значение в 30 кадров в секунду (fps). Это основной параметр, который следует регулировать в окружениях, ограниченных по пропускной способности канала. Если у вас канал очень узкий, а машин в него должно влезть много - регулируйте максимальное число кадров в секунду (но про качество картинки тоже не забывайте). На практике одна машинка без видео и других тяжелых для VDI нагрузок кушает где-то 200-300 Kbps.


Таги: VMware, View, PCoIP, Performance, Производительность, Blogs, VMachines

Беслатная утилита для мониторинга производительности сервера Microsoft Hyper-V.


Обнаружилась интересная бесплатная утилита HyperV_Mon, которая позволяет наблюдать за производительностью серверов Microsoft Hyper-V и своевременно обнаруживать проблемы:

HyperV_Mon 1.8 показывает ресурсы (CPU, Memory, I/O), используемые root partition и гостевыми системами виртуальных машин, а также накладные расходы гипервизора. Версия 2.0 будет поддерживать уже Hyper-V R2, который будет в Windows 2008 R2 SP1, планируемый к релизу в ближайшее время. Скачать HyperV_Mon 1.8 можно по этой ссылке.


Таги: Microsoft, Hyper-V, Performance, Производительность, Бесплатно, Server, Blogs

Методы развертывания виртуализованных приложений VMware ThinApp.


Мы уже писали о продукте для виртуализации корпоративных приложений VMware ThinApp (здесь и здесь), который может быть использован как в рамках решения VMware View 4.5 для виртуализации корпоративных ПК предприятия, так и самостоятельно.

Sven Huisman, один из авторов портала virtualfuture.info, сделал интересный документ "How to deploy your ThinApps?", в котором детально описываются варианты развертывания виртуализованных приложений VMware ThinApp в корпоративной среде (пошагово и с инструкциями). Как вы знаете, у ThinApp нет собственного механизма развертывания виртуализованных приложений (централизованное развертывание есть только в консоли VMware View), поэтому этот документ может оказаться весьма полезным:


Таги: VMware, ThinApp, Blogs, View, Whitepaper, Обучение

Информация об использовании памяти виртуальными машинами VMware vSphere.


Как обычно, Duncan Epping написал отличный пост об использовании памяти виртуальными машинами на хостах VMware ESX. Постараемся объяснить это на русском языке. Итак, если открыть вкладку Summary в vSphere Client для виртуальной машины, мы увидим вот такую картину:

Здесь есть 2 главных параметра:

  • Memory - это то количество оперативной памяти, которое вы выделили виртуальной машине при создании. За это количество гостевая ОС не выйдет при ее использовании. Это же количество памяти вы увидите в гостевой ОС.
  • Memory Overhead - это количество памяти, которое может потребоваться гипервизору на поддержание работы виртуальной машины сверх используемой памяти (т.е. расчетные накладные расходы на виртуализацию, но не текущие).

Далее мы видим панель Resources, здесь есть такие показатели:

  • Consumed Host Memory - это количество физической памяти хоста ESX, выделенной виртуальной машине. Обычно это значение не больше значения Memory на предыдущей картинке. Но может быть и больше, поскольку Consumed Host Memory включает в себя и Memory Overhead, но не с картинки выше, а реально используемый гипервизором Overhead (о котором будет идти речь ниже). И важный момент - счетчик Consumed для Memory на вкладке "Performance" не включает в себя Overhead.
  • Active Guest Memory - это количество памяти, которое по мнению гипервизора VMkernel активно используется гостевой операционной системой. Вычисляется этот параметр на базе статистических показателей. То есть, если ОС не очень активно использует память, то можно ей ее немного подрезать в условиях нехватки ресурсов.

Теперь идем на вкладку "Resource Allocation". Здесь все немного сложнее:

Появляются вот такие показатели:

Для Host Memory (видим, что это 2187 МБ = сконфигурированная память 2048 МБ + Overhead):

  • Consumed - это, опять-таки, объем потребляемой виртуальной машиной физической памяти хоста ESX (постоянно меняется). И он включает в себя накладные расходы гипервизора по памяти.
  • Overhead Consumption - это текущий объем затрат памяти на поддержание виртуальной машины (здесь 42 МБ в отличие от расчетного в 110 МБ)

А формула такова: Consumed = Private + Overhead Comsumption

Для Guest Memory (2048 МБ сконфигурировано в настройках):

  • Private - это объем памяти физически хранимый хостом для виртуальной машины (см. формулу выше).
  • Shared - это объем памяти, который отдается другим виртуальным машинам от разницы между сконфигурированным объемом (Configured Memory) и потребляемым (Consumed). Суть в том, что ОС Windows при загрузке очищает всю память виртуальной машины, но потом эти пустые страницы приложениями не используются. Поэтому гипервизор отдает их другим ВМ, пока ВМ, владеющая памятью не потребует их. Эти страницы и есть Shared. Как мы видим, Private + Shared = Guest Memory.
  • Swapped - это объем памяти, ушедший в файл подкачки vswp. То есть это не файл подкачки Windows, а файл подкачки в папке с виртуальной машиной. Само собой этот показатель должен быть нулевым или совсем небольшим, поскольку своппинг, который делает ESX (а точнее VMkernel) - это плохо, т.к. он не знает (в отличие от Windows), какие страницы нужно складывать в своп, поэтому кладет все подряд.
  • Compressed - это объем памяти, который получен после сжатия страниц с помощью механизма Memory Compression (то есть, хранимый в VM Compression Cache).
  • Ballooned - это объем памяти, который забрал balloon-драйвер (vmmemctl), чтобы отдать ее другим нуждающимся виртуальным машинам.
  • Unaccessed - это память, к которой гостевая ОС ни разу не обращалась (у Windows - это близко к нулю, так как она обнуляет память при загрузке, у Linux должно быть как-то иначе).
  • Active - опять-таки, активно используемая память на основе статистики гипервизора.

На хорошем и производительном хосте VMware ESX метрики Compressed, Ballooned, Unaccessed - должны быть около нуля, так как это означает что машины не борются за ресурсы (то есть не сжимают страницы и не перераспределяют память между собой). Ну и, конечно, если показатель Active маленький, стоит задуматься об урезании памяти (но сначала посмотрите в гостевую ОС, она лучше знает, чем гипервизор, все-таки).

Ну и последняя секция Resource Settings:

  • Reservation, Limit, Shares, Configured - смотрим сюда.
  • Worst Case Allocation - это сколько будет выделено виртуальной машине при самом плохом раскладе (максимальное использование ресурсов), то есть вся память будет использоваться, да еще и накладные расходы будут (т.е., Configured + максимальный Overhead).
  • Overhead Reservation - это сколько зарезервировано памяти под Overhead гипервизором.

Ну и в заключение очень рекомендую документ "The Yin and Yang of Memory Overcommitment in Virtualization" - как раз для VMware vSphere.


Таги: VMware, vSphere, Memory, ESX, vCenter, Performance, Производительность, Blogs

Скрипт конфигурирования автоматического запуска виртуальных машин после миграции VMotion/DRS


Вне зависимости от издания VMware ESXi 4.1 (будь то бесплатная версия, или лицензия Enterprise Plus), доступна функция Configuration-Software=-Virtual Machine Startup/Shutdown (рис.1), которая позволяет отработать ситуацию с выключением питания на физическом сервере и автоматически запускает виртуальные машины...


Таги: VMware, VMachines, vSphere, Script, Blogs, HA

Хороший документ - Руководство по наилучшим способам использования систем NetApp с VMware vSphere 4.1.


Помните мы писали о замечательном человеке Романе, который делает переводы технических документов NetApp, которые дают много полезной информации не только пользователям СХД этого вендора, но и раскрывают общие принципы использования хранилищ для физической и виртуальной инфраструктуры.

Теперь у нас есть еще один документ на русском языке - "Руководство по наилучшим способам использования систем NetApp с VMware vSphere 4.1".

А вот что есть еще интересного о виртуализации на русском языке (остальное - здесь):

Использование NFS в VMware 
Bikash Roy Choudhury | NetApp | Июль 2010 | TR-3839 
В данном документе рассматриваются потенциальные преимущества использования в инфраструктуре хранения VMware работы по Network File System (NFS) с системы хранения NetApp®.
Скачать .pdf (22 страницы) html

Интеграция NetApp с VMware vStorage API
Robert McDonald | NetApp | Июль 2010 | WP-7106 
Этот документ описывает набор поддерживаемых в NetApp средств VMware® vStorage APIs for Array Integration (VAAI). VAAI это набор API, позволяющих виртуализованной инфраструктуре на базе VMware vSphere™ тесно интегрироваться с системой хранения. 
Скачать .pdf (8 страниц) 

Наилучшие методы использования систем хранения NetApp для решений виртуализации Microsoft Hyper-V
Chaffie McKenna, NetApp | Ravi B, NetApp | Декабрь 2009 | TR-3702-1209 
Этот документ содержит руководство и описание наилучших методов для построения интегрированной архитектуры и внедрения Microsoft Hyper-V с использованием систем хранения NetApp. Технологии NetApp, рассматриваемые в этом руководстве важны для создания эффективного с точки зрения затрат, производительности, гибкости и дружественности к окружающей среде интегрированного решения хранения данных виртуальной серверной инфраструктуры. 
Скачать .pdf (105 страниц)

Руководство по наилучшим способам использования систем NetApp с VMware Virtual Infrastructure 3
M. Vaughn Stewart, Michael Slisinger, Larry Touchette, | NetApp | TR 3428
Перевод Р. Хмелевского
Данный документ рассматривает наилучшие методы решений при внедрении VMware Virtual Infrastructure с использованием системы хранения Network Appliance FAS. Полезные советы, особенности установки и настройки, как на стороне системы хранения, так и на стороне VMware ESX/VI.
Скачать .pdf (76 страниц) 


Таги: VMware, vSphere, NetApp, Whitepaper, Blogs, Storage

Несколько ссылок по оптимизации производительности Microsoft Hyper-V.


Вот они:

Некоторые из них могут оказаться весьма полезными. Почитайте.


Таги: Microsoft, Hyper-V, Performance, Производительность, Blogs

Параметры командной строки VMware View Client 4.5.


В решении для виртуализации настольных ПК предприятия VMware View 4.5 доступ к виртуальным компьютерам на серверах VMware ESX происходит с помощью VMware View Client 4.5. У этого клиента есть несколько интересных параметров командной строки, которые можно задавать в свойствах ярлыка wswc.exe, делающих инфраструктуру доступа более гибкой.

Итак параметры командной строки VMware View Client 4.5:

  • -desktopName XXX - виртуальный ПК, который автоматически запускает при старте клиентаt 
  • -domainName XXX - домен, подставляемый по умолчанию Domain for server login
  • -file XXX - файл в котором можно задавать данный настройки Command Line
  • -languageId XXX - код языка (LCID), используемый клиентом. Например, 0×409 - это английский. 
  • -nonInteractive - пропускать сообщения об ошибках для полностью скриптового старта клиента
  • -password XXX - пароль для соединения с сервером View Connection Server  
  • -userName XXX - имя пользователя для входа 
  • -smartCardPIN XXX - PIN-код для смарт-карт 
  • -desktopProtocol XXX - попытка использовать заданный протокол доступа (PCoIP или RDP)
  • -desktopLayout XXX - указания размера и способа отображения десктопа (принимаются параметры: fullscreen, multimonitor, windowLarge, windowSmall) 
  • -serverURL XXX - URL сервера View Connection Server 
  • -logInAsCurrentUser XXX - вход как current user (true или false) 
  • -unattended - старт в режиме unattended mode (без взаимодействия с пользователем)
  • -connectUSBOnStartup XXX - проброс всех USB в виртуальный ПК при запуске клиента (true или false) 
  • -connectUSBOnInsert XXX - проброс устройства USB в виртуальный ПК, когда новое устройство втыкается в рабочую станцию (true или false) 
  • -printEnvironmentInfo - вывести информацию о системе 
  • -rollback - откат десктопа для Local Mode (нужен параметр -desktopName) 
  • -standalone - не поддерживается!: запуск еще одной копии View Client для тестирования 
  • -confirmRollback - подтверждение операции rollback для неинтерактивного режима (non-interactive mode) 
  • -? - Показ помощи с данными командами

Кроме того, при установке клиента VMware View Client 4.5 можно использовать следующие параметры (например, при запуске файла VMware-viewclient-x86_64-4.5.0-293049.exe):

INSTALLDIR=%ProgramFiles%\VMware, Inc.\VMware View\Client 
VDM_SERVER=<IP-Address> или FQDN-имя 
DESKTOP_SHORTCUT=0 (0=не создавать иконку на рабочем столе, 1=создавать) 
QUICKLAUNCH_SHORTCUT=0 (0=не создавать иконку в панели быстрого запуска, 1=создавать) 
STARTMENU_SHORTCUT=0 (0=не создавать пункт в меню "Пуск", 1=создавать) 
REBOOT="ReallySuppress" (не перезагружать компьютер по окончанию установки)

Кроме этих свойств, можно также выбирать компоненты, которые будут установлены в VMware View Client. Их кодовые названия: Core, MVDI, ThinPrint, TSSO, USB. Само собой, компонент "Core" - обязателен. Можно использовать также ключ ALL для установки всех комонентов.

ADDLOCAL=Core, MVDI, ThinPrint, TSSO, USB или просто ALL

Расшифровка:

Core = ядро 
MVDI = поддержка Local Mode (если есть в дистрибутиве)
ThinPrint = возможность Universal Printing (Print redirection) 
TSSO = Сквозной логин (Single Sign-On) 
USB = Перенаправление USB-устройств (USB Redirection)

Примеры:

VMware-viewclient-x86_64-4.5.0-293049.exe /S /V /qn DESKTOP_SHORTCUT=0 VDM_SERVER={server_name} INSTALLDIR="C:\Program Files\VMware\VMware View\Client" /l C:\Logs \VMware_Client45.log REBOOT=Reallysupress

VMware-viewclient-x86_64-4.5.0-293049.exe /s /v"/qn VDM_SERVER={server_name}ADDLOCAL=All"

VMware-viewclient-x86_64-4.5.0-293049.exe /s /v /qn RebootYesNo="No" REBOOT="ReallySuppress" VDM_SERVER={server_name} ADDLOCAL=Core,TSSO,USB DESKTOP_SHORTCUT=1 STARTMENU_SHORTCUT=1

Для "тихой" (silent) установки пользователю понадобятся права администратора, поэтому надо предусмотреть этот момент (например, через Group Policies).

Внимание: имена параметров чувствительны к регистру!


Таги: VMware, View, Client, Blogs, Enterprise, VDI

VMware Data Protection Report 2010 от Veeam.


Компания Veeam Software в рамках изучения обстановки в сфере защиты данных виртуальных инфраструктур VMware vSphere и перед выходом Veeam Backup and Replication 5, подготовила отчет "VMware Data Protection Report 2010".

Штука очень классная. Чтобы ее сделать, компания Veeam наняла независимую исследовательскую компанию Vanson Bourne, которая опросила 500 ИТ-директоров крупных компаний (в каждой из которых работает больше 1000 человек).

Вот что они говорят:

  • Восстановление виртуальной машины занимает до 5 часов (!)
  • 59% организаций до сих пор используют продукты для резервного копирования, которые применяются и для физической среды (что плохо, так как они не выполняют специфических для виртуализации задач)
  • 63% испытывают проблемы ежемесячно, когда пытаются восстановить виртуальный сервер сервер

Например, вот основные выгоды, которые получают компании от виртуализации. Заметьте, что повышение эффективности защиты данных далеко не на последнем месте:

А вот какая часть инфраструктуры виртуализована сейчас и сколько будет через 2 года:

Там есть много еще интересных статистик - так что регистрируйтесь и скачивайте отчет.


Таги: Veeam, Backup, Whitepaper, Blogs, Enterprise, Data Recovery

Как работать с esxtop в VMware vSphere / ESX.


Мы уже писали о команде esxtop для серверов VMware ESX, которая позволяет отслеживать основные параметры производительности хост-сервера и его виртуальных машин. Duncan Epping недавно добавил еще несколько интересных моментов в свое руководство по работе с утилитой esxtop, некоторые из которых мы сейчас опишем.

Итак:

1. Для того, чтобы использовать пакетный режим работы esxtop (batch mode), нужно использовать ключ -b:

esxtop -b >perf.txt

Это позволит вывести результаты команды esxtop в файл perf.txt. Для задания числа хранимых итераций используйте ключ -n (например, -n 100).

Очень удобно для сбора исторических данных производительности на хосте VMware ESX.

2. Контролируйте счетчик %SYS - он показывает загрузку системных ресурсов хоста (в процентах). Рекомендуется, чтобы он не превышал 20 для системных служб.

3. Для установки частоты обновлений результатов esxtop используйте клавишу <s>, далее задавайте интервал в секундах:

В пакетном режиме этот интервал задается ключом -d (например, -d 2).

4. Для отслеживания метрик конкретной виртуальной машины можно ограничить вывод конкретным GID. Например, чтобы посмотреть ВМ с GID 63, нажмите клавишу <l> (list) и введите этот GID:

5. Чтобы ограничить количество выводимых сущностей, используйте клавишу <#>. Например, можно сделать вывод первых 5:

И сами кнопки в режиме работающей esxtop:

c = cpu  
m = memory  
n = network  
i = interrupts  
d = disk adapter  
u = disk device (включая NFS-девайсы)  
v = disk VM  
y = power states    
V = показывать только виртуальные машины  
e = раскрыть/свернуть статистики CPU для конкретного GID  
k = убить процесс (только для службы техподдержки!)  
l = ограничить вывод конкретным GID (см. выше)  
# = ограничить число сущностей (см. выше)    
2 = подсветка строчки (двигает фокус вниз)  
8 = подсветка строчки (двигает фокус вверх)  
4 = удалить строчку из результатов вывода  
f = добавить/удалить колонки
o = изменить порядок колонок
W = сохранить сделанные изменения в файл конфигурации esxtop
? = помощь для esxtop

Таги: VMware, ESX, esxtop, Performance, Производительность, vSphere, VMachines, Troubleshooting, Blogs

Новые возможности Citrix XenDesktop 5.


На прошедшей недавно в Берлине конференции Citrix Synergy компания Citrix официально объявила о выпуске новой версии продукта для виртуализации настольных ПК предприятия XenDesktop 5.

Напомним, что на сегодняшний день решение Citrix XenDesktop является лидирующим продуктом на рынке VDI (Virtual Desktop Infrastructure). Кроме того, Citrix XenClient, интегрированный с XenDesktop, является единственным на сегодняшний день "клиентским гипервизором", который позволяет распространять виртуальные машины пользователей на устройства без операционной системы (bare-metal гипервизор).

В Citrix XenDesktop 5 появился новый компонент - Citrix Desktop Director. Это веб-консоль, представляющая собой единую точку управления и контроля инфраструктуры виртуальных ПК, которая оказывает существенную помощь при решении типичных проблем в крупных организациях.

Новые возможности Citrix XenDesktop 5 рассмотрены в статье "Citrix Accelerates Virtual Desktop Revolution with XenDesktop 5". Стоимость Citrix XenDesktop 5 для издания VDI-only (без XenApp) составит $95 (на одного пользователя или устройство). Цена XenDesktop 5 Enterprise и Platinum Edition будет составлять $225 и $350 соответственно.

На данный момент Citrix XenDesktop 5 недоступен для загрузки. Выпуск продукта намечен на четвертый квартал этого года. Как только выйдет финальный релиз продукта, мы обязательно детально рассмотрим его новые возможности в отдельной статье.


Таги: Citrix, XenDesktop, VDI, Enterprise, Update, VMachines, Blogs

Как настроить VMware ESXi для корректного выключения при отключении питания на UPS APC


Данная статья основывается на инструкции, написанной Joseph Holland, Kepak Group «How to configure VMWare ESXi to shutdown using an APC SmartUPS. v3.0_20090312», и является ее переработанным и дополненным переводом. Для настройки интеграции UPS APC и VMware ESXi понадобится установленный виртуальный модуль vMA.


Таги: VMware, ESXi, APC, UPS, vSphere, Blogs, ESX, Hardware

VMware Product Interoperability Matrix - совместимость продуктов VMware.


Компания VMware анонсировала новый онлайн-сервис Product Interoperability Matrix, который позволяет проверить совместимость различных версий продуктов между собой.

Например, выбираем VMware ESX версии 4.1 и VMware vCenter - получаем результат в таблице, по которому видно, что для ESX 4.1 подходит только vCenter 4.1 (но не наоборот! - потому что vCenter 4.1 может управлять даже ESX 3.5 Update 5).

По этому поводу на VMware Knowledge Base TV появилось даже обучающее видео:


Таги: VMware, vSphere, vCenter, ESX, Blogs

Отказоустойчивость решений VMware View 4.5.


На сайте myvirtualcloud.net появилась отличная статья, в которой описываются подходы к отказоустойчивости и восстановлению после сбоев (Disaster Recovery) в инфраструктуре виртуальных ПК VMware View 4.5.

Рассматриваются конфигурации Active-Active и Active-Passive для сайтов, где развернуто решение VMware View. Статья обязательна к ознакомлению тем, кто еще не задумывался над этим важным вопросом.


Таги: VMware, View, DR, VDI, HA, Backup, Blogs

Красная пилюля - аппаратная виртуализация в контексте информационной безопасности.


Когда произносится слово «виртуализация», сразу на ум приходят названия фирм VMware, Microsoft, Cisco… и разных продуктов стоящих за этими фирмами. Виртуализация в нашем сознании прочно связана с понятиями гостевых ОС, гипервизорами, облачными вычислениями и прочими сложными программными комплексами. Мы уже привыкли, что все связанное с виртуализацией сложно, непонятно, имеет громоздкую программную инфраструктуру и создание таких систем - это удел крупных фирм, обладающих штатом программистов измеряемых сотнями, если не тысячами человек. Однако это всего лишь миф...


Таги: Security, Blogs, Virtualization, VMachines

Глава книги The Expert Guide to VMware Data Protection and Disaster Recovery от компании Veeam.


Многие знают известного блоггера и евангелиста виртуализации по имени Eric Siebert. Компания Veeam, выпускающая лидирующий на рынке продукт Veeam Backup and Replication для резервного копирования систем VMware, выложила главу из книги "The Expert Guide to VMware Data Protection and Disaster Recovery" в бесплатном доступе:

Книга действительно интересная, там есть о чем почитать и для новичков, и для продвинутых пользователей: обзор технологии виртуализации VMware, типы файлов и виртуальных дисков виртуальных машин vSphere, обзор методик резервного копирования, репликации и многое другое. Пока доступна только одна глава, но, будем надеяться, скоро будет еще.

Антон (или Арсений), а на русском когда будет что-нибудь интересное по Veeam Backup and Replication?


Таги: Veeam, VMware, Бесплатно, ESX, vSphere, Backup, Blogs, Book

Представляем нового спонсора VM Guru: компания StarWind Software.


Многим из вас, конечно же, давно знакома компания StarWind, делающая отличный продукт StarWind iSCSI Target, который позволяет превратить обычный сервер или недорогую систему хранения данных в надежное отказоустойчивое хранилище для виртуальных машин VMware vSphere или Microsoft Hyper-V.

У меня для вас приятная новость - поскольку StarWind теперь является официальным спонсором портала VM Guru, то вам, уважаемые читатели, теперь будет доноситься гораздо больше свежей, актуальной и детальной информации о продуктах этого вендора. И да, на VM Guru теперь есть раздел о StarWind (его вы видите в верхнем меню).

Что можно сказать о StarWind? Мы берем в свои рекламодатели только лучшие компании, делающие уникальные продукты для оптимизации ИТ-инфраструктуры предприятий. И StarWind - одна из них. Решение iSCSI Target - вообще безальтернативный продукт для стремительно растущего рынка виртуализации и его клиентов. О нем мы уже писали в статье "Как работает StarWind Enterprise HA - отказоустойчивое хранилище для VMware vSphere / ESX" - мы его используем каждый день в наших лабораториях, мы его устанавливаем клиентам, мы его настоятельно предлагаем покупать и некоторое его количество мы уже продали.

Но это мы делали и раньше. А вот начиная с нынешнего момента, мы будем вас посвящать в технические детали работы решений StarWind. Флагманский продукт компании - StarWind Enterprise HA позволяет сделать недорогую отказоустойчивую систему хранения из двух узлов, что защитит диски ваших виртуальных машин в случае выхода из строя одного из хранилищ. Переключение на резерв произойдет мгновенно - без потери каких бы то ни было данных. Это нужное решение и главная фишка в том, что оно недорогое, а каждая компания сможет себе выбрать подходящее издание.

Также есть еще масса интересных возможностей для создания хранилищ виртуальных машин на серверах VMware ESX и Hyper-V:

И бонус: сотрудники StarWind говорят по-русски, поэтому вы всегда сможете быть уверены, что вам помогут, а не будут бормотать в трубку что-то непонятное.

Теперь пул рекламодателей VM Guru окончательно сформирован, так что если хотите купить рекламу на VM Guru - обращайтесь, конечно, но придется обождать.

И да, компания VMC является одним из поставщиков продуктов StarWind Software и ее надежным партнером.


Таги: StarWind, iSCSI, Storage, vSphere, Hyper-V, ESX, Enterprise, Adv, Sponsorship, VMachines, Blogs

<<   <    1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Enterprise Offtopic Broadcom VMachines Veeam Microsoft Cloud StarWind NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V VCF Operations Certification Memory Kubernetes NVMe AI vSAN VMConAWS vDefend VCDX Explore Tanzu Workstation Private AI Update Russian Ports HCX Live Recovery CloudHealth NSX Labs Backup Chargeback Aria VCP Intel Community Ransomware Stretched Network VMUG VCPP Data Protection ONE V2V DSM DPU Omnissa EUC Avi Skyline Host Client GenAI Horizon SASE Workspace ONE Networking Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS VEBA App Volumes Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey RDMA vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Availability Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V Capacity KB VirtualCenter NFS ThinPrint VCAP Upgrade Orchestrator ML Director SIOC Troubleshooting Bugs ESA Android Python Hub Guardrails CLI Driver Foundation HPC Optimization SVMotion Diagram Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Работа с дисками виртуальных машин VMware.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2026, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge